50 research outputs found
Self correction requires Energy Barrier for Abelian quantum doubles
We rigorously establish an Arrhenius law for the mixing time of quantum
doubles based on any Abelian group . We have made the concept of
the energy barrier therein mathematically well-defined, it is related to the
minimum energy cost the environment has to provide to the system in order to
produce a generalized Pauli error, maximized for any generalized Pauli errors,
not only logical operators. We evaluate this generalized energy barrier in
Abelian quantum double models and find it to be a constant independent of
system size. Thus, we rule out the possibility of entropic protection for this
broad group of models.Comment: 18 pages, 6 figure
Towards efficient decoding of classical-quantum polar codes
Known strategies for sending bits at the capacity rate over a general channel
with classical input and quantum output (a cq channel) require the decoder to
implement impractically complicated collective measurements. Here, we show that
a fully collective strategy is not necessary in order to recover all of the
information bits. In fact, when coding for a large number N uses of a cq
channel W, N I(W_acc) of the bits can be recovered by a non-collective strategy
which amounts to coherent quantum processing of the results of product
measurements, where I(W_acc) is the accessible information of the channel W. In
order to decode the other N (I(W) - I(W_acc)) bits, where I(W) is the Holevo
rate, our conclusion is that the receiver should employ collective
measurements. We also present two other results: 1) collective Fuchs-Caves
measurements (quantum likelihood ratio measurements) can be used at the
receiver to achieve the Holevo rate and 2) we give an explicit form of the
Helstrom measurements used in small-size polar codes. The main approach used to
demonstrate these results is a quantum extension of Arikan's polar codes.Comment: 21 pages, 2 figures, submission to the 8th Conference on the Theory
of Quantum Computation, Communication, and Cryptograph
Anyons are not energy eigenspaces of quantum double Hamiltonians
Kitaev's quantum double models, including the toric code, are canonical examples of quantum topological models on a two-dimensional spin lattice. Their Hamiltonian defines the ground space by imposing an energy penalty to any nontrivial flux or charge, but does not distinguish among those. We generalize this construction by introducing a family of Hamiltonians made of commuting four-body projectors that provide an intricate splitting of the Hilbert space by discriminating among nontrivial charges and fluxes. Our construction highlights that anyons are not in one-to-one correspondence with energy eigenspaces, a feature already present in Kitaev's construction. This discrepancy is due to the presence of local degrees of freedom in addition to topological ones on a lattice
Decoherence of a quantum gyroscope
We study the behavior of a quantum gyroscope, that is, a quantum system which
singles out a direction in space in order to measure certain properties of
incoming particles such as the orientation of their spins. We show that
repeated Heisenberg interactions of the gyroscope with several incoming
spin-1/2 particles provides a simple model of decoherence which exhibits both
relaxation and dephasing. Focusing on the semiclassical limit, we derive
equations of motion for the evolution of a coherent state and investigate the
evolution of a superposition of such states. While a coherent state evolves on
a timescale given by the classical ratio of the angular momentum of the
gyroscope to that of the incoming particles, dephasing acts on a much shorter
timescale that depends only on the angular difference of the states in the
superposition.Comment: 7 pages, 5 figure
Practical variational tomography for critical 1D systems
We improve upon a recently introduced efficient quantum state reconstruction
procedure targeted to states well-approximated by the multi-scale entanglement
renormalization ansatz (MERA), e.g., ground states of critical models. We show
how to numerically select a subset of experimentally accessible measurements
which maximizes information extraction about renormalized particles, thus
dramatically reducing the required number of physical measurements. We
numerically estimate the number of measurements required to characterize the
ground state of the critical 1D Ising (resp. XX) model and find that MERA
tomography on 16-qubit (resp. 24-qubit) systems requires the same experimental
effort than brute-force tomography on 8 qubits. We derive a bound computable
from experimental data which certifies the distance between the experimental
and reconstructed states
Caractérisation pratique des systèmes quantiques et mémoires quantiques auto-correctrices 2D
Cette thèse s'attaque à deux problèmes majeurs de l'information quantique: - Comment caractériser efficacement un système quantique? - Comment stocker de l'information quantique? Elle se divise done en deux parties distinctes reliées par des éléments techniques communs. Chacune est toutefois d'un intérêt propre et se suffit à elle-même. Caractérisation pratique des systèmes quantiques. Le calcul quantique exige un très grand contrôle des systèmes quantiques composés de plusieurs particules, par exemple des atomes confinés dans un piège électromagnétique ou des électrons dans un dispositif semi-conducteur. Caractériser un tel système quantique consiste à obtenir de l'information sur l'état grâce à des mesures expérimentales. Or, chaque mesure sur le système quantique le perturbe et doit done être effectuée après avoir repréparé le système de façon identique. L'information recherchée est ensuite reconstruite numériquement à partir de l'ensemble des données expérimentales. Les expériences effectuées jusqu'à présent visaient à reconstruire l'état quantique complet du système, en particulier pour démontrer la capacité de préparer des états intriqués, dans lesquels les particules présentent des corrélations non-locales. Or, la procédure de tomographie utilisée actuellement n'est envisageable que pour des systèmes composés d'un petit nombre de particules. Il est donc urgent de trouver des méthodes de caractérisation pour les systèmes de grande taille. Dans cette thèse, nous proposons deux approches théoriques plus ciblées afin de caractériser un système quantique en n'utilisant qu'un effort expérimental et numérique raisonnable. - La première consiste à estimer la distance entre l'état réalisé en laboratoire et l'état cible que l'expérimentateur voulait préparer. Nous présentons un protocole, dit de certification, demandant moins de ressources que la tomographie et très efficace pour plusieurs classes d'états importantes pour l'informatique quantique. - La seconde approche, dite de tomographie variationnelle, propose de reconstruire l'état en restreignant l'espace de recherche à une classe variationnelle plutôt qu'à l'immense espace des états possibles. Un état variationnel étant décrit par un petit nombre de paramètres, un petit nombre d'expériences peut suffire à identifier les paramètres variationnels de l'état expérimental. Nous montrons que c'est le cas pour deux classes variationnelles très utilisées, les états à produits matriciels (MPS) et l'ansatz pour intrication multi-échelle (MERA). Mémoires quantiques auto-correctrices 2D. Une mémoire quantique auto-correctrice est un système physique préservant de l'information quantique durant une durée de temps macroscopique. Il serait done l'équivalent quantique d'un disque dur ou d'une mémoire flash équipant les ordinateurs actuels. Disposer d'un tel dispositif serait d'un grand interêt pour l'informatique quantique. Une mémoire quantique auto-correctrice est initialisée en préparant un état fondamental, c'est-à-dire un état stationnaire de plus basse énergie. Afin de stocker de l'information quantique, il faut plusieurs états fondamentaux distincts, chacun correspondant à une valeur différente de la mémoire. Plus précisément, l'espace fondamental doit être dégénéré. Dans cette thèse, on s'intéresse à des systèmes de particules disposées sur un réseau bidimensionnel (2D), telles les pièces sur un échiquier, qui sont plus faciles à réalisér que les systèmes 3D. Nous identifions deux critères pour l'auto-correction: - La mémoire quantique doit être stable face aux perturbations provenant de l'environnement, par exemple l'application d'un champ magnétique externe. Ceci nous amène à considérer les systèmes topologiques 2D dont les degrés de liberté sont intrinsèquement robustes aux perturbations locales de l'environnement. - La mémoire quantique doit être robuste face à un environnement thermique. Il faut s'assurer que les excitations thermiques n'amènent pas deux états fondamentaux distincts vers le même état excité, sinon l'information aura été perdue. Notre résultat principal montre qu'aucun système topologique 2D n'est auto-correcteur: l'environnement peut changer l'état fondamental en déplaçant aléatoirement de petits paquets d'énergie, un mécanisme cohérent avec l'intuition que tout système topologique admet des excitations localisées ou quasiparticules. L'intérêt de ce résultat est double. D'une part, il oriente la recherche d'un système auto-correcteur en montrant qu'il doit soit (i) être tridimensionnel, ce qui est difficile à réaliser expérimentalement, soit (ii) être basé sur des mécanismes de protection nouveaux, allant au-delà des considérations énergétiques. D'autre part, ce résultat constitue un premier pas vers la démonstration formelle de l'existence de quasiparticules pour tout système topologique
Practical characterization of quantum devices without tomography
Quantum tomography is the main method used to assess the quality of quantum
information processing devices, but its complexity presents a major obstacle
for the characterization of even moderately large systems. The number of
experimental settings required to extract complete information about a device
grows exponentially with its size, and so does the running time for processing
the data generated by these experiments. Part of the problem is that tomography
generates much more information than is usually sought. Taking a more targeted
approach, we develop schemes that enable (i) estimating the fidelity of an
experiment to a theoretical ideal description, (ii) learning which description
within a reduced subset best matches the experimental data. Both these
approaches yield a significant reduction in resources compared to tomography.
In particular, we demonstrate that fidelity can be estimated from a number of
simple experimental settings that is independent of the system size, removing
an important roadblock for the experimental study of larger quantum information
processing units.Comment: (v1) 11 pages, 1 table, 4 figures. (v2) See also the closely related
work: arXiv:1104.4695 (v3) method extended to continuous variable systems
(v4) updated to published versio